DeepSeek R1 bị lời nhắc độc hại 'qua mặt 100%'
DeepSeek R1 đã không chặn được bất kỳ lời nhắc độc hại nào trong số 100 AI mới nhất của mình, khiến người dùng gặp nguy cơ mất an toàn. Theo thông báo từ đội ngũ nghiên cứu của Cisco cuối tuần qua, họ đã sử dụng kỹ thuật bẻ khóa thuật toán để thử nghiệm mô hình AI này, được ra mắt vào ngày 201.
Nhóm nghiên cứu đã sử dụng 50 lời nhắc độc hại ngẫu nhiên từ tập dữ liệu HarmBench, chia thành 6 loại hành vi có hại như tội phạm mạng và thông tin sai lệch. Kết quả cho thấy AI này không chặn được bất kỳ lời nhắc gây hại nào, với tỷ lệ tấn công thành công 100%. Điều này trái ngược với các mô hình hàng đầu khác, vốn có khả năng chống chịu ít nhất một phần các cuộc tấn công.
Tỷ lệ bị lời nhắc độc hại qua mặt ở 6 mô hình AI phổ biến được nghiên cứu bởi Cisco. Tương tự, công ty bảo mật Adversa AI cũng chỉ ra rằng DeepSeek dễ bị tấn công qua nhiều chiến thuật khác nhau, từ thủ thuật ngôn ngữ đơn giản đến lời nhắc phức tạp do AI tạo ra. Các chuyên gia cho rằng việc phát triển AI với chi phí thấp là nguyên nhân khiến DeepSeek dễ bị tấn công.
DJ Sampath, Phó chủ tịch sản phẩm phần mềm AI của Cisco, cho biết rằng 100 cuộc tấn công thành công cho thấy sự đánh đổi. Mặc dù việc xây dựng công nghệ có thể rẻ hơn, nhưng đầu tư cho an toàn và bảo mật có thể chưa được tính đến. DeepSeek chưa có bình luận gì, trong khi trước đó được biết chỉ sử dụng khoảng 6 triệu USD để phát triển các mô hình AI, bao gồm V3 miễn phí và R1 mới nhất.
Theo phân tích của SemiAnalysis, con số thiệt hại thực tế có thể vượt một tỷ USD. Tuần trước, công ty an ninh mạng Wiz đã cảnh báo rằng DeepSeek để lộ hơn một triệu dòng dữ liệu không bảo mật, bao gồm khóa phần mềm và nhật ký trò chuyện ghi lại các yêu cầu từ người dùng đến trợ lý AI miễn phí của họ.
Theo Reuters, Ami Luttwak, Giám đốc công nghệ của Wiz, cho biết DeepSeek đã nhanh chóng thực hiện biện pháp bảo mật dữ liệu sau khi được cảnh báo. DeepSeek, do Liang Wenfeng thành lập vào tháng 5 năm 2023, có trụ sở tại Hàng Châu, Chiết Giang và thuộc sở hữu của quỹ đầu tư High-Flyer. Công ty này được High-Flyer tài trợ và không có kế hoạch huy động vốn, tập trung vào phát triển công nghệ nền tảng.
Theo nghiên cứu của Cisco, mô hình Llama 3.1 405B của Meta có tỷ lệ vượt qua lời nhắc độc hại lên đến 96%, trong khi GPT-4o của OpenAI là 86%. Mô hình Claude 3.5 Sonet của Claude và O1-preview của OpenAI đã chặn được phần lớn với tỷ lệ lần lượt là 36 và 26. Theo PCMag, Wired, DeepSeek đã tốn hơn 1 tỷ USD thay vì 5,6 triệu USD cho AI. Nhiều cơ quan Mỹ đã cấm DeepSeek do phát hiện lộ dữ liệu nhạy cảm và OpenAI cho biết có dấu hiệu DeepSeek sử dụng mô hình của họ để đào tạo AI.
Nguồn:vnexpress.net/deepseek-r1-bi-loi-nhac-doc-hai-qua-mat-100-4845134.html